par Philippe Quéau

UNESCO

Nota : le texte qui suit est celui de la conférence prononcée à Poitiers à l'ouverture du séminaire fws, organisé par le Club de Rome, le 1 Mars 1999. Il porte sur le même sujet que la conférence-discussion qui a été enregistrée à l'Ecole des Mines de Paris le 5 Mai à 18h30.

page d'origine : http://2100.org/conf_queau1.html

La société mondiale de l'information pose de manière très concrète, un problème politique général : qu'est-ce que le "bien commun mondial"?

Qui profite le plus de la société de l'information? Quel est le rôle de la révolution de l'information quant à l'évolution des inégalités? Aggrave-t-elle ou réduit-elle le fossé économique, social, culturel entre les riches et les pauvres? Est-ce que la mondialisation s'exacerbe ou se "civilise" du fait de la société de l'information? Pour répondre il faudrait disposer d'un critère d'évaluation du bien commun.

Qu'est-ce que le bien commun mondial ?

La notion de "bien commun mondial" vise l'intérêt collectif de tous les habitants du monde.

Mais il y a plusieurs manières de définir le "monde". Par exemple la protection de la couche d'ozone intéresse évidemment toute la population mondiale actuelle et pas seulement ceux d'entre nous qui sont les plus exposés aux rayonnements nocifs. En revanche les manipulations du génome humain concernent aussi l'avenir de l'espèce humaine et pas seulement les générations contemporaines. Les questions liées à Internet touchent directement les 2% d'internautes de la planète, mais affectent indirectement les info-exclus, de même que les désordres des bulles spéculatives globales affectent qu'ils le veuillent ou non les pays dans leur ensemble, et non pas seulement les spéculateurs.

Il faut aussi définir ce que l'on entend par "bien commun". En droit international, on l'entend au sens de "res nullius" (une chose qui n'appartient à personne, comme la haute mer) ou de "res communis" (une chose qui appartient à tous, comme le spectre des fréquences électromagnétiques)? La catégorie de "res publica" en tant qu'elle s'oppose à la "res privata" peut aussi s'appliquer.

Le bien commun mondial pourrait être défini comme une "res publica" mondiale, s'il y avait une forme de gouvernance capable de la définir et de la défendre comme telle.

Les exemples de biens collectifs sont nombreux: citons pêle-mêle la couche d'ozone, le génome humain, le patrimoine génétique naturel, les fréquences hertziennes, les orbites géostationnaires, mais aussi les principes supérieurs du droit international (exemple: principes de la propriété intellectuelle), les standards du domaine public (TCP/IP, World Wide Web), ou encore les idées, ou les faits bruts.

Par ailleurs, il faut s'interroger sur les opérateurs capables de faire respecter ce bien commun. Les états-nations sont notoirement plus faibles que les certains opérateurs trans-nationaux (entreprises géantes). Les Nations Unies n'ont ni le mandat ni les moyens d'imposer un bien commun mondial. Elles sont dominées par un conseil de sécurité qui représente avant tout les intérêts "sacrés" de certains états membres.

Deux paradoxes du bien commun.

Le bien commun produit deux paradoxes: le "profiteur" ("l'ouvrier de la onzième heure") et l'effet "Matthieu" ("à celui qui a on donnera encore, à celui qui n'a rien on enlèvera même ce qu'il a").

D'une part, lorsqu'un bien commun est créé par quelques-uns il profite à tous, sans que les "profiteurs" n'aient eu à supporter leur "juste part" des coûts.

D'autre part, les riches peuvent avoir un avantage relatif plus important à tirer parti de certains biens communs (haute mer, espace, fréquences hertziennes) que les pauvres. Les prairies communales profitent plus aux possesseurs des gros troupeaux.

Ces situations paradoxales montrent toute l'importance de la médiation et de la régulation, et donc de la définition de ce qui représente le mieux l'intérêt supérieur "mondial".

Comment peut se former une "volonté générale" à propos du bien commun ?

La volonté générale, concept politique forgé par JJ Rousseau, se définit comme une décision collective quant à ce qui est bien pour la société entière, par opposition à la "volonté de tous" qui ne serait que l'addition des préférences individuelles.

A l'échelon supérieur, la volonté générale mondiale pourrait incarner (si on avait un moyen de la faire émerger) ce que la communauté mondiale estime être dans l'intérêt de l'humanité, et non pas seulement dans l'intérêt des états-nations ou des groupes de pression.

Mais comment définir cet intérêt général mondial ?

Il semble que cela soit difficile en pratique. Mais en théorie le principe démocratique répond: une personne, un vote. Si ce principe était suivi, nul doute que les politiques adoptées à l'échelle mondiale favoriseraient alors les intérêts des pauvres et des exclus. Les quatre milliards d'hommes disposant de moins de 2$ par jour, étant "majoritaires", sauraient vraisemblablement imposer leurs vues aux minorités les plus riches ñ notamment quant à la manière de gérer les biens collectifs mondiaux ("res communis", "res nullius" et "res publica").

Les mondialisations et les ghettos

Comme on l'a dit il n'y a pas une mondialisation mais plusieurs. Les mondialisations financières, économiques et technologiques se renforcent mutuellement et accompagnent la mondialisation de la Société de l'Information.

Les expressions de "village global", de "société mondiale de l'information", ou d'ère de "la convergence multimédia" sont trompeuses. La globalisation n'est pas la même pour tous. Il y a les "globaux-riches" et les "globaux-pauvres". Moins d'un Africain sur cinq mille a accès à Internet. Il y a bien un phénomène de globalisation, mais certains en tirent tout le bénéfice, et les autres en sont de plus en plus durement affectés. Une des raisons à cela est qu'il n'y a pas de pilote global, il n'y pas de volonté politique capable de se faire entendre et respecter au plan transnational. L'exemple des paradis fiscaux, de la circulation sans freins des flux spéculatifs ou de l'incapacité à résoudre les problèmes globaux de l'environnement illustrent ce point.

Le mondialisation propre à la Société de l'Information est une mondialisation abstraite, normative, efficace, aux enjeux avant tout économiques, stratégiques, politiques. Elle tend à libérer les opérateurs les plus puissants de l'économie capitaliste des poids du réel. On cherchera à abolir les limites de l'espace (délocalisation et déterritorialisation), les contraintes du temps (immédiateté et interaction en temps réel), l'inertie de la matière (déréalisation, simulation et virtualisation), l'obstacle de l'altérité et les barrières de la diversité (désintermédiation et homogénéisation).

Dans le monde réel, "fini", le virtuel apporte une nouvelle "frontière", un nouvel espace plus libre, plus ouverte, plus dérégulée

Le phénomène des "rendements croissants".

Mais ce monde dématérialisé possède des propriétés très différentes du monde de la matière. Par exemple, le phénomène des "rendements croissants" dont on connaît les effets dans le domaine technique (importance des standards, prime aux positions dominantes, valeur exponentielle des réseaux), dans le domaine des contenus (importance cruciale de l'image de marque), dans le domaine économique (tendance intrinsèque de la compétition "dérégulée" à produire des oligopoles puis des monopoles: la compétition tend à "tuer" la compétition, puisqu'elle tend à éliminer les plus "faibles" pour ne garder que les "plus forts").

Ce phénomène des rendements croissants induit deux effets contradictoires du point de vue du capitalisme. D'un côté, il permet et encourage la constitution de très grands empires post-industriels (vagues d'alliances trans-sectorielles, monopoles structurels, effets du type "the winner takes all").

D'un autre côté, des rendements croissants sur le plan technique n'impliquent pas nécessairement des rendements croissants du point de vue capitalistique. Exemple: la production des circuits intégrés est d'autant moins rentable qu'on les produit en plus grande quantité. La diffusion de plus en plus rapide et peu coûteuse de données, d'images, de logiciels, sape la profitabilité du fait de l'augmentation de l'offre générale de biens immatériels. Mais on peut arriver cependant à limiter cette "baisse tendancielle du taux de profit" de deux manières:

soit en tirant parti des positions de monopole mondial sur un segment clé pour imposer des pratiques hégémoniques (cas des systèmes d'exploitation, se généralisant aux navigateurs, puis aux portails, et enfin au commerce électroniqueÖ)

soit en recréant artificiellement de la rareté là o˜ l'abondance menace le profit. Par exemple, on assistera à des tentatives de privatiser (et donc de raréfier) des biens appartenant au domaine public (brevetage du vivant, interdiction de réutiliser des semences sous "copyright", allongement sans contrepartie pour "l'intérêt général" de la durée du copyright d'úuvres qui devraient être tombées dans le domaine public, création de nouveaux "droits d'auteur" comme le droit "sui generis" de la directive européenne de mars 1996 sur les bases de données, permettant de privatiser indéfiniment l'accès à des données publiques, obtention de concession exclusive de services publics essentiels, comme le service de l'eau,)

Un autre phénomène intéressant à analyser est celui des standards. Considérons deux exemples emblématiques: Windows de Microsoft et le langage HTML inventé par Tim Berners-Lee dans un organisme public: le CERN. Dans un cas, l'adoption du standard Windows à l'échelle mondiale permet (selon les attendus du procès anti-trust intenté par la justice américaine) des effets pervers de monopole, de "conduite prédatrice", d'exclusion de toute concurrence réelle du fait d'accords secrets et de collusions (toutes choses complètement contraires à l'esprit affiché du "marché libre" ne pouvant fonctionner qu'en situation de concurrence loyale). Dans l'autre, HTML a permis l'explosion quasi-instantanée du World Wide Web grâce à un "standard" appartenant au domaine public. Toute la planète Internet a bénéficié de cela, à l'exception de son inventeur certes, qui n'en retira que les bénéfices moraux.

Dans la société de l'information nous avons intrinsèquement besoin de standards parce qu'ils commandent la transparence et l'universalité qui sont le propre de la Toile. Ces standards (de TCP/IP aux navigateurs, d'UNICODE à Java, de Windows à LINUX) ont par nature tendance à s'imposer comme des monopoles. C'est en effet le propre d'un standard universel de devenir un monopole. Certains y parviennent de manière radicale. D'autres échouent en chemin. Considérons les standards mondiaux de facto, comme Windows. Alors on bute sur une contradiction fondamentale, car une situation de monopole mondial est contraire à l'esprit du libre marché. Conclusion théorique: quand un standard, pour quelque raison que ce soit, s'impose comme un monopole de facto, alors il devrait être décrété (dans l'intérêt supérieur du "monde" !) comme appartenant au "domaine public mondial". A tout le moins, s'il s'agit d'un logiciel, son code devrait être rendu public pour permettre une concurrence loyale et éviter les "abus de position dominante".

Le marché et l'intérêt général : un besoin de régulation.

Le marché n'est pas concerné par la redistribution sociale des richesses. Le marché ne peut tout régler. Des questions comme l'éducation, la santé, la paix sociale sont du domaine politique. Le marché lui-même ne peut fonctionner sans régulation. Car la compétition sans régulation ne peut être que prédatrice et "déloyale". De plus si ce sont, comme prévus, les plus forts qui survivent, ils finissent par créer des monopoles, ou des situations de collusion.

Les régulateurs sont censés incarner et protéger l'intérêt général. Ils doivent pouvoir définir par exemple la notion politique de "l'accès universel" à l'information. Est-ce l'accès physique aux lignes? Cela comprend-il nécessairement des péréquations tarifaires (nationales et internationales)? Cela inclut-il l'accès aux contenus eux-mêmes, par exemple aux informations du domaine public intéressant les citoyens (information gouvernementale )? Quels peuvent être les droits des consommateurs vis-à-vis du commerce électronique? En quoi les droits des consommateurs sont-ils convergents ou contradictoires avec ceux des citoyens? Comment réguler les ressources publiques matérielles ou immatérielles (accès et prix des fréquences hertziennes, accès à la numérotation)?

Le besoin de régulation peut être mis en évidence dans deux cas que nous voudrions soulever :

-les déséquilibres structurels des réseaux électroniques dans le monde

-la question de la propriété intellectuelle

Les termes inégaux des échanges électroniques dans le monde

En 1998 le trafic lié à Internet a dépassé pour la première fois le trafic téléphonique mondial. On prévoit qu'en 2002 le trafic téléphonique mondial ne représentera plus que 1% du trafic Internet. C'est à ce moment que l'on constate que les treize premiers fournisseurs mondiaux d'accès Internet sont tous américains. British Telecommunications (BT), le premier européen, n'arrive qu'à la quatorzième place. Worldcom, propriétaire du premier fournisseur Internet, UUNET, est bien placé pour dominer le marché mondial, avec sa récente acquisition du deuxième fournisseur, MCI Communications.

Le pouvoir des opérateurs de télécommunications américains est aujourd'hui tel que les Etats-Unis sont devenus la plaque tournante (le "hub") des télécommunications mondiales, et plus particulièrement pour Internet. Ils ont désormais les moyens, du fait de leur puissance financière, de leur avantage concurrentiel croissant et d'une dérégulation généralisée, de venir installer en Europe et en Asie leurs propres systèmes de commutation et d'y négocier, avec les opérateurs locaux, des tarifs d'interconnexion encore plus avantageux, mettant ainsi définitivement à mal le système international des taxes de répartition. La taxe de répartition (" accounting rate ") représente le coût total d'un appel international entre deux pays. Traditionnellement, le pays o˜ est facturé l'appel reverse la moitié de cette taxe au pays receveur. Mais, depuis janvier 1998, la Commission fédérale des communications (FCC) américaine a décidé unilatéralement d'abandonner ce système de reversement, au grand dam des pays en développement, arguant que le déséquilibre croissant entre le trafic sortant des Etats-Unis et le trafic entrant engendre pour les opérateurs américains un déficit de plus de six milliards de dollars par an. Or une bonne partie de ce déficit a en fait été encouragé par les pratiques des opérateurs américains eux-mêmes, comme le rétro-appel (call back) et le re-routage (c'est-à-dire le passage de la communication par un pays tiers aux tarifs plus compétitifs).

Cette situation est aggravée par le manque de stratégies régionales alternatives des responsables européens, asiatiques et africains. Leur longue pusillanimité devant leurs propres monopoles nationaux n'a cessé de renforcer la compétitivité américaine. Et le cas de la fourniture d'accès à Internet est particulièrement clair à cet égard.

Comment en est-on arrivé là ? Une combinaison redoutable de progrès technologiques radicaux permettant des baisses extrêmement importantes des prix de revient, une stratégie commerciale ingénieuse exploitant les vices inhérents au système des taxes de répartition, un avantage structurel aux plus gros (phénomène des " rendements croissants ") et enfin l'incapacité des opérateurs non-américains de formuler à temps des stratégies effectives, ou plutôt leur enthousiasme à contribuer volontairement au déséquilibre, comme on va le voir. C'est la concurrence, rendue possible par une dérégulation amorcée beaucoup plus tôt qu'ailleurs, et s'appuyant sur un progrès technologique immédiatement mis au service d'une stratégie commerciale, qui a permis les premières baisses tarifaires importantes aux Etats-Unis. Cette concurrence exacerbée sur le marché intérieur américain était d'autant plus encouragée que la rémunération des opérateurs américains par les opérateurs internationaux au titre des taxes de répartition s'effectue au prorata des parts de marché à l'export. Autrement dit, plus un opérateur américain gagne des parts dans son marché national, plus il gagne "mécaniquement " à l'international. Cette concurrence aiguÎ a entraîné le développement de systèmes permettant la concentration et le détournement de trafic téléphonique (rétro-appel et re-routage), ce qui contribuait d'autant plus à gonfler artificiellement les parts de marché à l'exportation, faisant ainsi d'une pierre trois coups : - en affaiblissant les marchés régionaux non-américains et en portant la concurrence en leur sein, à un moment et selon un calendrier non choisi par eux ; - en montant en puissance pour obtenir des effets d'échelle à l'exportation et en creusant artificiellement le déficit ; - en obtenant ainsi un excellent prétexte pour remettre en cause le système des taxes de répartition. Cette décision a soulevé l'ire des pays en développement. Son premier effet est de faire tomber les revenus dans l'escarcelle des opérateurs américains au détriment des opérateurs locaux déjà affaiblis. Au-delà, elle aboutit à la remise en cause du système - lui aussi ancien ñ des subventions croisées relevant des politiques nationales et permettant par exemple de financer la téléphonie locale par les recettes fournies par les appels internationaux. La mondialisation technique et financière se traduit donc par une " mondialisation " des politiques de télécommunication des pays en développement, qui se voient " obligés " de se conformer à la logique du pays le plus développé sans avoir eu le temps de compléter leur infrastructure de base. Les pays en développement recevaient des pays développés environ dix milliards de dollars par an au titre des taxes de répartition. Il est vrai que cette manne a plus souvent été utilisée pour financer des gouvernements en manque de devises et pour permettre à des pratiques non compétitives de survivre, que pour assurer un investissement dans les infrastructures des télécommunications locales. Pendant qu'aux Etats-Unis la compétition se renforÁait, qu'on repoussait les limites de la technologie (en 2010, on projette un prix de revient de 15 centimes pour une heure de téléphone entre Paris et New York,), que les systèmes de concentration du trafic se perfectionnaient, le reste du monde accentuait son retard, à la fois sur le plan technique et dans le domaine stratégique. Les monopoles nationaux non américains n'ont pas répercuté la très grande baisse des coûts techniques vers leurs utilisateurs. Plus grave, ils ont mis beaucoup de temps à comprendre l'apparition de concepts totalement nouveaux comme Internet. (On se rappelle la cécité de responsables franÁais, proposant de faire du Minitel un "Internet français".) Alors est venu le temps o˜ le piège s'est refermé. Cela a commencé avec le détournement de trafic rendu possible par un écart absolument anormal des tarifs entre les Etats-Unis et les autres pays. Cette concurrence, qualifiée de "dumping" par certains observateurs, n'a toutefois pas trop inquiété au début. Bien au contraire, les monopoles nationaux ont laissé faire, parce qu'ils profitaient sans coup férir des rentes de l'activisme américain. Mais tout a une fin. Les Américains ont sifflé la fin de la récréation, non sans s'être d'abord assuré une situation de domination, qui, de plus, bénéficie de la loi d'airain des "rendements croissants" aux effets tellement démultiplicateurs dans le domaine des réseaux et de l'économie de l'immatériel. La logique profonde des réseaux favorise les regroupements, les synergies ñ qui, dans le vocabulaire du marché, s'appellent aussi oligopoles, collusions, voire monopoles Les " mains invisibles " des réseaux et du marché s'activent naturellement pour tisser une toile unique.

La géographie de l'Europe ou de l'Asie en est elle-même bouleversée : l'Amérique s'est virtuellement installée au cúur de ces régions. En moyenne, le coût des liaisons spécialisées entre les pays européens ñ les fameuses "autoroutes de l'information" ou "dorsales " (backbones) par lesquelles transite le trafic Internet - est 17 à 20 fois supérieur au coût de liaisons équivalentes aux Etats-Unis. Une liaison Paris - New York ou Londres ñ New York est moins chère qu'une liaison Paris ñ Londres ou Paris ñ Francfort La Virginie est devenue la plaque tournante des liaisons intra-européennes! Conséquence : les fournisseurs européens d'accès Internet sont obligés de se connecter aux Etats-Unis en priorité. De même, en Asie plus de 93 % de l'infrastructure Internet est tournée vers les Etats-Unis.

Comme pour l'Europe, les circuits Internet vers les Etats-Unis sont intégralement payés par les fournisseurs d'accès asiatiques, ce qui représente environ un milliard de dollars par an. La subvention mondiale des fournisseurs d'accès non américains aux fournisseurs d'accès américains est de l'ordre de cinq milliards de dollars par an. Autre conséquence, les fournisseurs d'accès américains obtiennent de facto un accès gratuit aux ressources Internet du reste du monde. Par exemple, ce sont les Africains qui financent toutes les liaisons Internet entre les Etats-Unis et l'Afrique. Ce sont les Latino-américains qui paient toutes les liaisons Internet entre les Etats-Unis et l'Amérique Latine. Même lorsque des liaisons directes intra-régionales existent, elles ne sont pas nécessairement utilisées et le trafic régional "intérieur" continue de transiter par les Etats-Unis. En effet les fournisseurs d'un pays donné se font concurrence et n'achemine pas le trafic de leurs compétiteurs. Ce sont alors les Etats-Unis qui effectuent la commutation du trafic. De plus, lorsque la demande est très forte (trafic Internet vers les Etats-Unis), de nouveaux câbles peuvent être installés dont le prix de revient est presque insensible à la bande passante et donc beaucoup plus rentables. Ainsi les câbles les plus modernes sont actuellement installés entre l'Asie et les Etats-Unis: ils ont une capacité de 80 Gbps, dix à trente fois supérieure aux câbles existants, pour un investissement équivalent. Cela favorise évidemment les connections vers les Etats-Unis, plutôt que les liaisons intra-régionales structurellement plus coûteuses.

Les utilisateurs non américains se cotisent donc pour subventionner l'accès des internautes américains à leur partie du réseau ! Cette stratégie du Cheval de Troie a parfaitement fonctionné, et elle permet aux Etats-Unis de passer à la phase suivante : le contrôle du commerce électronique

Le public et le privé. Le cas de la propriété intellectuelle.

L'intérêt public est beaucoup plus difficile à définir que l'intérêt privé. C'est un concept plus abstrait. Il intéresse tout le monde, et donc personne en particulier. Plus les problèmes sont abstraits et globaux, plus ils sont difficiles à traiter et à assimiler par le public. Les groupes de pression sectoriels ont en revanche une très claire notion de leurs intérêts et de la manière de les soutenir. Il est intéressant de revenir à ce propos sur l'évolution actuelle du droit de la propriété intellectuelle, notamment du point de vue de la protection du "domaine public", son extension, le renforcement des exclusions métajuridiques, comme l'exclusion du "vivant" ou des algorithmes.

La gestion des biens communs de l'humanité (comme l'eau, l'espace, le génome humain, le patrimoine génétique des plantes et des animaux mais aussi le patrimoine culturel public, les informations dites du "domaine public", les idées, les faits bruts) doit désormais être traitée comme un sujet politique essentiel, touchant à la "chose publique" mondiale. Par exemple le chantier de la propriété intellectuelle devrait être traité, non pas seulement d'un point de vue juridique ou commercial, mais d'un point de vue éthique et politique (analyse des rapports de forces entre les différents groupes de pression, mais aussi nécessaire réflexion sur les principes fondant l'élaboration du droit, et éthique des rapports entre pays développés et pays en développement).

Quels sont les fondements philosophiques des lois sur la propriété intellectuelle? Il s'agissait d'abord de la protection de l'intérêt général en assurant la diffusion universelle des connaissances et des inventions, en échange d'une protection consentie par la collectivité aux auteurs pour une période limitée.

Aristote affirme dans la Poétique que l'homme est l'animal mimétique par excellence. Pour lui la mimésis est créatrice de modèles. Les Lumières reprirent le concept d'imitation. Ainsi pour Condillac, " les hommes ne finissent par être si différents, que parce qu'ils ont commencé par être copistes et qu'ils continuent de l'être.". Pour le philosophe Alain, " il faut copier pour inventer ". Le décret d'Allarde et Le Chapelier des 2 et 17 mars 1791 exprime le principe de la liberté du commerce et de l'industrie, et donc le principe de la liberté de faire concurrence, qui implique par définition la possibilité d'offrir sur le marché le même produit qu'autrui et donc la liberté de la copie. Aux Etats-Unis, la notion d'accès public à l'information remonte aux pères fondateurs et en particulier à Thomas Jefferson, promoteur du concept de " bibliothèque publique " et de la doctrine du " fair use " permettant l'usage éducatif et les citations à des académiques de textes protégés.

Thomas Jefferson écrivait : " He who receives an idea form me, receives instruction himself without lessening mine ; as he who lights his taper at mine, receives light without darkening me. That ideas should freely spread from one to another over the globe, for the moral and mutual instruction of man, and improvement of his condition, seems to have been peculiarly and benevolently designed by nature, when she made them, like fire, expansible over all space, without lessening their density at any point, and like the air in which we breathe, move, and have our physical being, incapable of confinement or exclusive appropriation. Inventions then cannot, in nature, be a subject of property. "

Or, depuis quelque temps, on voit apparaître des tentatives, heureusement encore infructueuses, de protéger les idées et les algorithmes, encore réputés inprotégeables, mais aussi à modifier sans cesse le droit de la propriété intellectuelle dans le sens de certains intérêts sectoriels plutôt que dans le sens de " l'intérêt général ".

Depuis le début du siècle, le Congrès américain allonge régulièrement la durée du copyright au détriment du domaine public. En 1998, le 27 octobre, le Congrès a voté le Sonny Bono Copyright Term Extension Act qui fait passer la durée du copyright de soixante-quinze à quatre-vingt-quinze ans après la mort de l'auteur. On peut interpréter cet allongement unilatéral de la protection, sans aucune contrepartie pour le " bien commun ", comme faisant essentiellement le jeu des grands groupes de communication, et on pourrait y voir aussi une tendance lourde à la disparition pure et simple du domaine public.

Cette évolution voulue par les éditeurs ñ et obtenue sans réel débat démocratique -- est incompatible avec le développement d'un accès universel à l'information et contraire à l'esprit même de la loi sur la propriété intellectuelle. La collectivité accepte en effet de reconnaître et de protéger les droits exclusifs des créateurs sur leurs úuvres, mais pour une durée limitée seulement, étant entendu que ces úuvres doivent in fine revenir à la collectivité, et satisfaire ainsi à l'intérêt général, qui est d'encourager la libre circulation des idées et l'accès de tous aux connaissances.

Les manúuvres actuelles de certaines firmes cherchant à empêcher la réutilisation des graines produites par les fermiers eux-mêmes mais " protégées " par un droit de propriété intellectuelle, ou la possibilité d'obtention de droits de propriété intellectuelle sur le génome humain, mériteraient également d'etre analysées sous l'angle de l'interêt général mondial, et en particulier des pays les plus pauvres ñ et non pas seulement sous l'angle de l'intérêt national de certains pays, ou de groupes privés.

Cette évolution va-t-elle réellement dans le sens de l'intérêt général ? Par exemple, le problème des bases de données et des données du secteur public fait l'objet d'un débat qui reste toujours ouvert, opposant en gros certains pays développés au reste du monde. La Directive européenne du 11 mars 1996 portant sur les bases de données et la création d'un nouveau droit de propriété intellectuelle dit " sui generis ", est entrée en application en Europe depuis janvier 1998. Les principes fondamentaux inspirant cette directive ont été soumis sans succès en décembre 1996 à la conférence diplomatique de Genève organisée par l'OMPI, du fait de l'opposition de pays en développement et de pays asiatiques et du fait de violentes réactions d'ONG influentes. Citons à ce propos la FID (Fédération internationale d'Information et de Documentation): " le rôle des collecteurs et de disséminateurs publics d'information (bibliothèques, archives, musées,...) pourrait être détruit ". Ou encore la réaction de l'IFLA (Fédération Internationale des Associations de Bibliothèques) : "La tendance actuelle à la protection des droits d'auteur pour des raisons purement économiques semble être en conflit avec le but originel du copyright de promouvoir le progrès des sciences et des arts. "

Ou enfin le Conseil international pour la Science (ICSU) : " The EU Directive could irreparably disrupt the full and open flow of scientific data which ICSU has long labored to achieve, and could seriously compromise the worldwide scientific and educational missions of its member bodies. (Ö) All data ñ including scientific data ñ should not be subject to exclusive property rights on public policy grounds."

Le Congrès américain, très profondément divisé sur la question, doit étudier dans les semaines qui viennent un projet de loi allant dans le sens de la directive européenne. Les deux camps qui s'opposent sur ce projet représentent d'une part les industriels de l'information, d'autre part les bibliothécaires, les scientifiques, les éducateurs, et les groupes de citoyens qui associent le principe du libre accès à l'information publique comme condition essentielle pour l'exercice de la liberté d'expression. Ils soutiennent, avec Thomas Jefferson qu'il n'y a pas de liberté d'expression réellement possible sans opinion dûment informée. L'article 19 de la déclaration des Droits universelle des droits de l'homme dépend de la pleine réalisation de l'article 27.

En conclusion, nous voudrions poser la question du " progrès " de l'humanité. Le XXème siècle semble être le siècle où s'est imposé un doute radical quant à l'idée même de " progrès ". Le développement extrême de la rationalité instrumentale s'est accompagné d'un " désenchantement " du monde et d'une " perte du sens " qui caractérise selon beaucoup d'observateurs la fin du siècle. La Société de l'Information occupe une position originale dans ce débat sur la mort du progrès. D'un côté, elle fournit une nouvelle utopie : la création d'un outil concret pour la formation d'une communauté mondiale. D'un autre côté, elle contribue à sa manière au désenchantement du monde en nous imposant un modèle implicite, à base d'abstraction cognitive et mathématique, d'efficacité économique, d'homogénéisation culturelle et de différenciation sociale entre info-riches et info-pauvres. Mondialisation, abstraction et société de l'information ont partie liée. L'abstraction croissante des mécanismes économiques et financiers globaux ne doit pas cacher la frustration du " bon sens " devant les incohérences globales que ces mécanismes exacerbent. Les bulles financières et conceptuelles ne font que souligner l'inconsistence du politique au niveau méta-national.

Un anthropologue comme André Leroi-Gourhan definit le progrès des civilisations par leur niveau d'abstraction. Si nous le suivons, alors indéniablement la civilisation du virtuelle, plus abstraite, sera un grand bond en avant. Mais nous ne partageons pas ce point de vue. La véritable mesure du progrès d'une civilisation doit être plutôt sa capacité à l'altérité, sa capacité à appréhender, comprendre et préserver l'autre. Le principal risque d'une " civilisation mondiale " est d'ailleurs de limiter la diversité et de réduire la possibilité d'altérité, en imposant des normes puissantes de conduite. Le prix à payer de la transparence et de la circulation mondiale est l'uniformité et la réduction au même, sans parler de l'atteinte à la liberté. L'étranger, le pauvre, l'exclu, sont des symboles inoubliables de la différence et de l'altérité. Ils sont des images de l'autre.

Mais il y a toutes sortes d'autres " autre ". Ainsi le futur est " autre ". Keynes disait : " Ce qui arrive en fin de compte ce n'est pas l'inévitable mais l'imprévisible. " La véritable mesure du progrès d'une civilisation pourrait bien être sa capacité à favoriser l'imprévisible

L'unité de l'humanité ne peut être fondée sur une unique religion, une seule philosophie ou sur un même gouvernement. Elle doit être fondée sur une diversité plus utile à l'unité que l'unicité ou l'unification. La multiplicité est essentielle à l'unité. Mais, elle est difficile à maintenir à l'âge de l'abstraction numérique, l'abtraction dévorante du marché planétaire et du totalitarisme économique.

Le défi que nous devons relever est le suivant. Face à la mondialisation de l'abstraction et du marché, il faut réussir à préserver l'altérite et la diversité. Il faut en particulier surmonter le paradoxe qui consiste à mettre les techniques de l'information, porteuses de standardisation, au service de la différence. Il faut mettre au service de ceux qui sont les plus "autres", notre modernité tellement attachée au "même".



Voir aussi sur ce site l'entretien de Philippe Quéau et Marie Marques

Voir Livre Vert de la Commission européenne sur l'information émanant du secteur public dans la société de l'information (1998)

Le domaine public doit s'appuyer sur le droit d'auteur et non pas l'infirmer. En effet, les logiciels "libres" sont protégés par le droit d'auteur, et c'est parce qu'ils sont protégés par le droit d'auteur que le créateur peut imposer des conditions qui font que les utilisateurs ne peuvent les privatiser en les modifiant. L'intérêt commun suppose donc, non seulement le domaine public (qui peut être accru par un relèvement des standards de protection, un abaissement de la durée de celle-ci et des exclusions de principe ñ comme par exemple pour les algorithmes), mais aussi par la reconnaisance d'un droit d'accès à l'information structuré (il y a déjà une base juridique pour cela) et par l'introduction d'une exception générale de "fair use".

Les accords ADPIC, comme le traité OMPI de 1996, ont encore répété l'exclusion des idées de toute appropriation par le Droit de la propriété intellectuelle.

Voir sur ce point la proposition de directive du Parlement européen et du Conseil relative à la protection juridique des inventions biotechnologiques, présentée par la commission le 29 août 1997 La proposition amendée (COM (97) 446 final) a été publiée au JOCE C-311 du 11 octobre 1997. On parle spécifiquement de la question des agriculteurs.

Voir la proposition de directive citée à la note précédente.

Cette question est débattue dans le livre vert de la Commission européenne déjà cité : "L'information émanant du secteur public: une ressource clef pour l'Europe ñ Livre vert sur l'information émanant du secteur public dans la société de l'information" COM (1998) 585.